Warning: mkdir(): No space left on device in /var/www/tg-me/post.php on line 37

Warning: file_put_contents(aCache/aDaily/post/dsproglib/--): Failed to open stream: No such file or directory in /var/www/tg-me/post.php on line 50
Библиотека дата-сайентиста | Data Science, Machine learning, анализ данных, машинное обучение | Telegram Webview: dsproglib/6486 -
Telegram Group & Telegram Channel
👍 Инструмент недели: `torchao` — лёгкое квантование и оптимизация PyTorch-моделей

`torchao` — это новая экспериментальная библиотека от команды PyTorch, разработанная для простого применения квантования, разреживания и других оптимизаций к нейросетевым моделям.

Основные возможности:
📍 `autoquant` — автоматическое квантование модели по слоям, без ручной настройки
📍 поддержка INT8 квантования, совместимого с torch.ao.quantization
📍 интеграция с PyTorch 2.x (использует torch.compile, dynamo, inductor)
📍 поддержка разреживания (sparsity), структурных трансформаций
📍 работа с предварительно обученными моделями — ResNet, MobileNet, Llama и др
📍 возможность применения на CPU/GPU, включая ускорение inference в ONNX и TorchScript

Если вы хотите:
📍 ускорить инференс без потери качества
📍 уменьшить размер модели для edge-устройств или мобильных приложений
📍 минимизировать latency для real-time задач
📍 подготовить модели к выводу на продакшн с минимальным инженерным оверхедом

то torchao может стать отличной альтернативой более сложным инструментам квантования.

Пример использования:
from torchao.quant import autoquant

# Загружаем обученную модель
model = torchvision.models.resnet18(pretrained=True).eval()

# Применяем автоматическое квантование
model = autoquant(model)


🔴 Подробнее на GitHub: https://clc.to/XUsE5g

Библиотека дата-сайентиста #буст
Please open Telegram to view this post
VIEW IN TELEGRAM



tg-me.com/dsproglib/6486
Create:
Last Update:

👍 Инструмент недели: `torchao` — лёгкое квантование и оптимизация PyTorch-моделей

`torchao` — это новая экспериментальная библиотека от команды PyTorch, разработанная для простого применения квантования, разреживания и других оптимизаций к нейросетевым моделям.

Основные возможности:
📍 `autoquant` — автоматическое квантование модели по слоям, без ручной настройки
📍 поддержка INT8 квантования, совместимого с torch.ao.quantization
📍 интеграция с PyTorch 2.x (использует torch.compile, dynamo, inductor)
📍 поддержка разреживания (sparsity), структурных трансформаций
📍 работа с предварительно обученными моделями — ResNet, MobileNet, Llama и др
📍 возможность применения на CPU/GPU, включая ускорение inference в ONNX и TorchScript

Если вы хотите:
📍 ускорить инференс без потери качества
📍 уменьшить размер модели для edge-устройств или мобильных приложений
📍 минимизировать latency для real-time задач
📍 подготовить модели к выводу на продакшн с минимальным инженерным оверхедом

то torchao может стать отличной альтернативой более сложным инструментам квантования.

Пример использования:

from torchao.quant import autoquant

# Загружаем обученную модель
model = torchvision.models.resnet18(pretrained=True).eval()

# Применяем автоматическое квантование
model = autoquant(model)


🔴 Подробнее на GitHub: https://clc.to/XUsE5g

Библиотека дата-сайентиста #буст

BY Библиотека дата-сайентиста | Data Science, Machine learning, анализ данных, машинное обучение




Share with your friend now:
tg-me.com/dsproglib/6486

View MORE
Open in Telegram


Библиотека дата сайентиста | Data Science Machine learning анализ данных машинное обучение Telegram | DID YOU KNOW?

Date: |

The messaging service and social-media platform owes creditors roughly $700 million by the end of April, according to people briefed on the company’s plans and loan documents viewed by The Wall Street Journal. At the same time, Telegram Group Inc. must cover rising equipment and bandwidth expenses because of its rapid growth, despite going years without attempting to generate revenue.

At a time when the Indian stock market is peaking and has rallied immensely compared to global markets, there are companies that have not performed in the last 10 years. These are definitely a minor portion of the market considering there are hundreds of stocks that have turned multibagger since 2020. What went wrong with these stocks? Reasons vary from corporate governance, sectoral weakness, company specific and so on. But the more important question is, are these stocks worth buying?

Библиотека дата сайентиста | Data Science Machine learning анализ данных машинное обучение from ms


Telegram Библиотека дата-сайентиста | Data Science, Machine learning, анализ данных, машинное обучение
FROM USA